¿Qué es derecho positivo?

El derecho positivo se refiere al conjunto de normas jurídicas que están vigentes en un determinado momento y lugar, independientemente de su justicia o moralidad. Estas normas pueden ser creadas por el Estado a través de leyes, decretos, reglamentos, entre otros, o bien pueden ser establecidas por la costumbre.

El derecho positivo se caracteriza por ser formal, ya que se encuentra plasmado en documentos escritos y es de obligatorio cumplimiento para todos los individuos que se encuentran bajo su jurisdicción. Además, se distingue por ser coercitivo, es decir, que el Estado tiene la facultad de imponer sanciones a quienes infrinjan sus normas.

El derecho positivo se encuentra en constante evolución y se adapta a las necesidades y valores de la sociedad en la que se aplica. A través de la interpretación y aplicación de las normas jurídicas por parte de los jueces y tribunales, se busca garantizar la certeza y seguridad jurídica en las relaciones sociales.

En resumen, el derecho positivo es el conjunto de normas jurídicas que están en vigor en un determinado territorio y que establecen los derechos y obligaciones de los individuos en dicha sociedad.